Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Das wünschen wir uns: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, im Ingenieurwesen oder eine vergleichbar erfolgreich abgeschlossene Ausbildung im IT-technischen Bereich Mehrjährige praktische Erfahrung in der Datenmodellierung, dem Aufbau von ETL-Prozessen und in der Data Warehouse Automatisierung Sehr gute SQL-Kenntnisse sowie idealerweise erste Kenntnisse in Python Idealerweise Erfahrung in Data Vault Modellierung Praktische Erfahrungen im Umgang mit Snowflake und AWS Sicherheit im Umgang mit JIRA, Confluence und GIT Ausgiebige Erfahrung mit agilen und datengetriebenen Entwicklungsprozessen Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Eintritt Standort Dauer DHBW-Standort 2026 Igersheim-Harthausen 3 Jahre Mosbach Darin bilden wir dich aus: Bearbeitung von komplexen informationstechnischen AufgabenstellungenAnwendung von Methoden, Verfahren und Techniken der InformationstechnologieKoordination von Programmierung, Integration, Betreuung und Wartung neuer SoftwareFachwissen in den Bereichen digitale Kommunikation und Ingenieurwissenschaften Erwerb von Kenntnissen über Prozessabläufe in den Bereichen Produktion, Logistik und Datenkommunikation Das bringst du mit: Freude am Umgang mit Software und erste ProgrammierkenntnisseInteresse an IT-SystemenInteresse an ProgrammiersprachenErfolg in den Schulfächern Mathematik, Informatik, und EnglischAllgemeine Hochschulreife, fachgebundene Hochschulreife oder Fachhochschulreife mit zuvor absolviertem Studierfähigkeitstest der DHBW
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementierenPython-ProgrammierungAufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generierenEntwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu könnenAufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-SystemsKonzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-HowFundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit PythonErfahrung in der Frontend- und Backend-EntwicklungKenntnisse in Django/HTMX von VorteilErste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data WarehouseKenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes BetätigungsfeldAttraktive Weiterentwicklungsmöglichkeiten38-Stunden-WocheRemote-Work möglichJobradGute Erreichbarkeit mit dem Auto und dem ÖPNVIndividuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Du konzipierst und realisierst mithilfe von Snowflake moderne Cloud Datenplattformen Als (Teil-)Projektleiter oder Fachexperte: Du übernimmst Verantwortung für den Kunden und trägst maßgeblich zum Projekterfolg bei Im Team unterstützt Du bei der Einarbeitung und Betreuung von Consultants Hiermit kommst Du zu uns Abgeschlossenes IT-orientiertes Studium oder eine klassische Berufsausbildung Mehrjährige Consulting Praxis im Cloud-, Data Warehouse-, Data Management- oder Data Lake-Umfeld Gute Kenntnisse in der Konzeption, Architektur, Entwicklung und Implementierung von Cloud Datenplattformen (Data Warehousing, Data Lake oder Data Lakehouse) auf den Hyper Scalern AWS, Azure, GCP im Zusammenspiel mit Snowflake Modellierungserfahrung (z.B.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Du konzipierst und realisierst mithilfe von Snowflake moderne Cloud Datenplattformen Als (Teil-)Projektleiter oder Fachexperte: Du übernimmst Verantwortung für den Kunden und trägst maßgeblich zum Projekterfolg bei Im Team unterstützt Du bei der Einarbeitung und Betreuung von Consultants Hiermit kommst Du zu uns Abgeschlossenes IT-orientiertes Studium oder eine klassische Berufsausbildung Mehrjährige Consulting Praxis im Cloud-, Data Warehouse-, Data Management- oder Data Lake-Umfeld Gute Kenntnisse in der Konzeption, Architektur, Entwicklung und Implementierung von Cloud Datenplattformen (Data Warehousing, Data Lake oder Data Lakehouse) auf den Hyper Scalern AWS, Azure, GCP im Zusammenspiel mit Snowflake Modellierungserfahrung (z.B.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
.------ Erfolgreich abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation Mehrjährige Berufserfahrung im Data-Engineering-Umfeld, idealerweise 8+ Jahre Sehr gute Python-Kenntnisse sowie fundierte Erfahrung mit ETL-Prozessen Gute Java-Kenntnisse (für die Integration in Java-basierte Services); React-Grundverständnis ist von Vorteil Interesse an KI-/AI-Themen oder idealerweise erste praktische Erfahrung in der Zusammenarbeit mit Data-Science/ML-Teams Kenntnisse in ETL-Prozessen und Datenverarbeitung sind wünschenswert (z.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse. Du verfügst über gute SQL-Kenntnisse und hast eine Leidenschaft für Daten. Add-on: Du kannst dich gut auf Deutsch und Englisch verständigen und hast ggf.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse. Du verfügst über gute SQL-Kenntnisse und hast eine Leidenschaft für Daten. Add-on: Du kannst dich gut auf Deutsch und Englisch verständigen und hast ggf.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Oracle, MS SQL Server, Exasol oder PostgreSQL.Programmier- und BI- Kenntnisse: Du kennst dich mit SQL, Python oder R aus und hast Erfahrungen mit Tools wie Power BI, Tableau, QlikSense oder Pyramid Analytics.Methodische Fähigkeiten: Du bist vertraut mit der Anforderungsanalyse und mit der Konzeption und Umsetzung moderner Datenbewirtschaftungsprozesse sowie Reporting-, Analyse- und Dashboard-Lösungen.Reisebereitschaft & Flexibilität: Überwiegend remote-Einsätze nach Abstimmung mit dem Kunden vorgesehen, aber du bist bereit zu reisen, wenn es erforderlich ist (z.B.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Sie verfügen über eine Hands-on-Mentalität gepaart mit Weitblick für sichere, skalierbare Cloud-Architekturen. Kenntnisse in der Datenvisualisierung und im Reporting mit Tools wie PowerBI (inkl. DAX) oder vergleichsweise AWS QuickSight sind ein großer Vorteil.
Fachinformatiker (m/w/d)) oder abgeschlossenes Studium im Bereich Informatik oder einer vergleichbaren Fachrichtung Mindestens 3 Jahre Berufserfahrung als Data Engineer / Data Warehouse & BI Specialist (m/w/d) Erste praktische Erfahrung in BI- und/oder Data-Warehouse-Projekten sowie im Umgang mit ETL-Tools und SQL Fundierte Kenntnisse in der Datenbankmodellierung und -entwicklung; Python- Kenntnisse sind von Vorteil Ausgeprägtes Interesse an Digitalisierung, Datenarchitekturen und Transformationsprojekten in einem agilen Umfeld Sehr gute Deutsch-(mindestestens B2-Niveau) sowie gute Englischkenntnisse in Wort und Schrift Hohe Begeisterungsfähigkeit sowie Motivation, neue Themen aktiv voranzutreiben Ausgeprägte Teamfähigkeit, sicheres Auftreten und gute Umgangsformen Sehr gute Kommunikationsfähigkeit auf unterschiedlichen Ebenen Selbstständige, strukturierte und lösungsorientierte ArbeitsweiseEinen abwechslungsreichen und herausfordernden Arbeitsplatz mit spannenden Aufgaben Intensive und umfassende Einarbeitung, die individuell auf Sie ausgerichtet wird, um Ihnen den optimalen Start in Ihre neue Position zu ermöglichen Ein Unternehmen mit über 180-jähriger Erfolgsgeschichte in einer soliden und zukunftsorientierten Branche - die Edelmetallbranche.
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
Gestalten, Implementieren und Pflegen von Datenpipelines Zusammenführen und Konsolidieren von Daten aus verschiedenen Systemen und Plattformen Gewährleisten der Datenqualität, Identifizieren und Bereinigen von Unstimmigkeiten Überwachung und Optimierung von Datenbanken und Speicherlösungen Implementierung von Sicherheitsmaßnahmen und Datenschutzrichtlinien Enge Zusammenarbeit mit Data Scientists, Analysten und anderen Stakeholdern Technologietrends verfolgen und stetig auf dem neuesten Stand der Datenverarbeitungstechnologien bleiben Deutsch fließend in Wort und Schrift (C1), gute Englischkenntnisse Abgeschlossenes Studium in Informatik, Datenwissenschaft oder adäquate Qualifikation Erfahrung in der Datenverarbeitung, idealerweise in einer ähnlichen Position als Data-Engineer Gute Kenntnisse in relevanten Programmiersprachen (Python, Java, etc.) Erfahrung mit relationalen und nicht-relationalen Datenbanken (SQL, No-SQL) Erfahrung mit ETL-Tools und -Frameworks wie Apache Spark, Apache NiFi oder ähnlichen Grundkenntnisse in Big Data-Technologien wie Hadoop, MongoDB, Graph Datenbanken und Vector Datenbanken Kommunikationsfähigkeit, Analytisches Denken, Selbstständigkeit Innovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit, eigene Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Das kannst du bei uns MACHEN: Konzeptionieren, Weiterentwickeln und Umsetzen von Integrations- und ETL-Lösungen und den zugehörigen Architekturen auf Basis des Microsoft Azure-StacksAnalysieren und Integrieren neuer Datenquellen sowie kontinuierliches Optimieren der vorhandenen ImplementierungenMitwirken bei Migrationsprojekten und komplexen AuswertungenBetreiben, Monitoren und Deployment der Prozesse im DevOps-PrinzipKommunizieren mit den Fachabteilungen und Mitarbeitenden in strategischen Unternehmensprojekten Das könntest du bei uns EINBRINGEN: Erfolgreich abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik oder vergleichbare QualifikationAnwendungsbereite Python Kenntnisse, idealerweise Python Data Analysis LibraryKenntnisse im Bereich von Integrations- und Architekturmuster* Erfahrungen mit serviceorientierten Architekturen und MicroservicesDatabricks-Kenntnisse und Erfahrung mit Message Brokern (Kafka, Azure ESB) sind von VorteilTeamfähigkeit sowie strukturiertes und strategisches Arbeiten sowie interkulturelle KompetenzHohe Eigeninitiative sowie ein gute ProblemlösungskompetenzGute Deutsch- und EnglischkenntnisseRegelmäßige Präsenz am Standort Darauf kannst du dich bei uns FREUEN: Wettbewerbsfähiges Gehalt zzgl.
Damit überzeugst du uns Mehrjährige Consulting-Erfahrung im Cloud-, DWH-, Data Lake- oder Datenmanagement-Umfeld. Sehr gute Kenntnisse in Architektur, Konzeption und Umsetzung von Datenplattformen. SQL und Python gehören für Dich zum Daily Business. Fundierte Praxis mit Snowflake (Performance, Security, Kosten, Modellierung).
Damit überzeugst du uns Mehrjährige Consulting-Erfahrung im Cloud-, DWH-, Data Lake- oder Datenmanagement-Umfeld. Sehr gute Kenntnisse in Architektur, Konzeption und Umsetzung von Datenplattformen. SQL und Python gehören für Dich zum Daily Business. Fundierte Praxis mit Snowflake (Performance, Security, Kosten, Modellierung).
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt DatabricksStrukturierung fachlicher Anforderungen und Umsetzung in effiziente technische LösungenVerantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data LakehouseDatenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende AnwendungenUmsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in ProjekteUnterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und DatenintegrationCloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit DatabricksSicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf FirmenwagenVielfältige Weiterbildungsangebote und interne CommunitiesAbsicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt Databricks Strukturierung fachlicher Anforderungen und Umsetzung in effiziente technische Lösungen Verantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data Lakehouse Datenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende Anwendungen Umsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in Projekte Unterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und Datenintegration Cloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit Databricks Sicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte 30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf Firmenwagen Vielfältige Weiterbildungsangebote und interne Communities Absicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das Projektteam Unterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlich Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Kenntnisse in Python, Git, CI/CD Wissen in ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das ProjektteamUnterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlichVerständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Kenntnisse in Python, Git, CI/CDWissen in ETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Ihre Aufgaben: Konzeption, Modellierung und Realisierung von Datawarehouse-/BI-Lösungen zusammen mit IT-Leitung und Fachkolleg*innenEntwicklung, Wartung und Optimierung von ETL-/ELT-Prozessen und DatenbankenDatenbankprogrammierung, Datenmodellierung und Prozessoptimierung zur DatenbereitstellungErfassung fachlicher Anforderungen und Umsetzung von Datenflüssen und -strukturenDurchführung von Ad-hoc-Analysen, Berichtserstellung und Dokumentationen Ihr Profil: Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, BWL oder vergleichbare Ausbildung (Quereinsteiger mit Erfahrung willkommen)Erfahrung in Datenbankprogrammierung (SQL), Datenmodellierung und Entwicklung von ETL-/ELT-StreckenIdealerweise Kenntnisse in Microsoft Azure Data Diensten (z. B. Azure SQL DB, Azure Data Lake, Azure Data Factory, Power BI)Kenntnisse in Python oder Java und erste Erfahrungen in Machine Learning von VorteilEngagement für neue Themen und LösungenTeamfähigkeit und strukturierte, selbstständige ArbeitsweiseVerständnis betriebswirtschaftlicher ZusammenhängeSehr gute Deutsch- und grundlegende Englischkenntnisse Was unser Kunde Ihnen bietet: Unbefristetes Arbeitsverhältnis mit abwechslungsreichen TätigkeitenVielfältige Entwicklungsmöglichkeiten und leistungsgerechte VergütungModernes Arbeitszeitmodell, mobiles Arbeiten, 30 Urlaubstage + freier Tag an Heiligabend und SilvesterGute ÖPNV-Erreichbarkeit und FahrradstellplatzWeitere Benefits: Firmenfitnessprogramm, JobRad, Zuschuss zur Kinderbetreuung, Zeitwertkonto (z.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B. Terraform, und CI/CD-Workflows Tiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und Datenmodellierung Erfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder Snowflake Sehr gutes Verständnis für Data Governance, Sicherheit und Datenschutz Idealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQL Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln Kommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B. Terraform, und CI/CD-WorkflowsTiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und DatenmodellierungErfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder SnowflakeSehr gutes Verständnis für Data Governance, Sicherheit und DatenschutzIdealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQLDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermittelnKommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Mehrjährige Erfahrung als Data Engineer oder in einer ähnlichen Rolle bringst du mit. Sehr gute Kenntnisse in Python und SQL zeichnen dich aus. Du hast fundierte Praxis in der Entwicklung und im Betrieb von Data Pipelines gesammelt.
Das wünschen wir uns Laufendes Studium in den Fachrichtungen Informatik oder vergleichbare Studiengänge. Fachliche Kenntnisse im Bereich SQL, MongoDB, C#, Go und Python. Interesse an datengetriebenen Anwendungen und moderner Softwareentwicklung. Du begeisterst dich für fortschrittliche Li-Ionen Akkutechnologie.
Power BI Du evaluierst neueste Technologien und Features, erprobst diese in Form von Proof of Concepts und führst sie als neue (Teil )Produkte für die Data & Analytics Plattform ein Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in Wirtschaftswissenschaften, Statistik, Business Intelligence, Data Analytics oder anderen einschlägigen Bereichen hast du erfolgreich abgeschlossen Du hast mind. 5 Jahre Berufserfahrung in den Bereichen Business Intelligence, Data Analytics, Data Engineering oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Du verfügst über weitreichende Kenntnisse in der Entwicklung von adressatengerechten Berichten und Dashboards für unterschiedliche Stakeholder und bist in der Lage, komplexe Datensätze zu analysieren, zu modellieren und dieses Wissen mit deinen Teamkollegen zu teilen Du bringst fortgeschrittene Programmierkenntnisse in R, Python, SQL oder Vergleichbarem mit sowie ausgeprägte Erfahrungen mit Business Intelligence Tools wie Microsoft Power BI, Tableau oder Qlik Sense Idealerweise konntest du bereits praktische Erfahrungen im Umgang mit großen Datenmengen sammeln Du bist ein Teamplayer mit einem hohen Maß an Engagement, Selbständigkeit und kreativem Denken Du verfügst über gute Englisch und Deutschkenntnisse Business-Intelligence-Engineer-m-w-d-Essen
Pandas) routiniert für Datenverarbeitung; mit SQL Server hast Du produktive Erfahrung.Du verfügst über erste Kenntnisse im Bereich der automatischen Datenverarbeitung / Orchestrierung von Workflows und hast idealerweise bereits mit Azure Synapse Analytics gearbeitet.Du bist ein echter Teamplayer, arbeitest sorgfältig und bringst die Bereitschaft mit, Dich in neue Tätigkeitsfelder einzuarbeiten.Du zeichnest Dich durch eine transparente und klare Kommunikation aus und verfügst über sehr gute Deutsch- und Englischkenntnisse (mind.
VBA, Skripte, Schnittstellen) Analyse, Strukturierung und Optimierung großer, heterogener Datenmengen aus unterschiedlichen Systemen Einsatz und Weiterentwicklung von KI-gestützten Ansätzen zur Datenanalyse, Prozessunterstützung und Entscheidungsfindung Erstellung und Pflege von Prozess-, System- und Automatisierungsdokumentation Ihr Profil: Sie können ein abgeschlossenes Studium im Bereich Wirtschaftsingenieurwesen, Wirtschaftsinformatik oder ähnliches vorweisen Sie sind versiert im Umgang mit großen Datenmengen, haben Erfahrung in Datenstrukturierung und -optimierung und konnten idealerweise bereits erste Erfahrung mit dem Einsatz künstlicher Intelligenz sammeln Sie haben ein Grundverständnis technischer und industrieller Abläufe Sie sind vertraut mit dem ERP-System SAP (Kenntnisse im Modul MM von Vorteil) Sie besitzen gute Kenntnisse in VBA, JSON oder vergleichbaren Programmiersprachen Sie haben Spaß am Analysieren und Optimieren von Prozessen und besitzen die nötige Auffassungsgabe, um komplexe Zusammenhänge zu verstehen Sie verfügen über sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Ihr Kontakt: Désirée Bleier Teamlead HR Business Partner
Data-Loss-Prevention, Inhalts- und Dateikontrollen Steuerung und Kontrolle von Web- und Cloud-Anwendungen zur Minimierung von Sicherheits- und Datenrisiken Kontinuierliche Verbesserung der Sicherheitsrichtlinien, Prozesse und Schutzmechanismen auf Basis aktueller Bedrohungslagen Abgeschlossenes Studium der Informatik oder einer vergleichbaren Fachrichtung, alternativ eine entsprechende technische Ausbildung Kenntnisse zu Malware-Techniken und verbreiteten Angriffsformen im Internet- und Cloud-Umfeld Erfahrung im Umgang mit SSL/TLS-Protokollen sowie ein fundiertes Verständnis von PKI-Strukturen, Zertifikaten und Trust-Chains Grundlegende Fähigkeiten in der Netzwerk-Analyse, z.B. mittels Wireshark Idealerweise erste Erfahrungen im Betrieb von Plattformen oder Sicherheitslösungen im Umfeld von Palo Alto Networks Analytische Denkweise, strukturierte Arbeitsweise und ein hohes Sicherheitsbewusstsein Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Herausfordernde Projektinhalte Ihr Kontakt Ansprechpartner Nina Achter Referenznummer 861381/1 Kontakt aufnehmen Telefon:+49-(0)911-21648312 E-Mail: nina.achter@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Erfahrung mit der Anbindung neuer Datenquellen, Entwicklung und Optimierung von ETL Pipelines, Datenmodellierung) Erstellung von Schulungsunterlagen und Durchführung von Schulungen Ausführen von Ad hoc Auswertungen für strategische Fragestellungen nach Bedarf Das bringst du mit Abgeschlossenes Studium der Wirtschaftsinformatik, Statistik, Business Intelligence, Data Analytics oder vergleichbare Qualifikation Du hast mind. 5 Jahre Berufserfahrung in den Bereichen Business Intelligence, Data Analytics, Data Engineering oder einer vergleichbaren Tätigkeit Du verfügst über fundierte Kenntnisse in der Entwicklung von adressatengerechten Berichten und Dashboards für unterschiedliche Stakeholder und bist in der Lage, komplexe Datensätze zu analysieren, zu modellieren und dieses Wissen mit deinen Teamkollegen zu teilen Du bringst fortgeschrittene Programmierkenntnisse in R, Python, SQL oder Vergleichbarem im Zusammenspiel mit Business Intelligence Tools wie Microsoft Power BI mit Analytisches Denkvermögen, eine strukturierte Vorgehensweise und Spaß am Lösen komplexer neuer Aufgaben Ein hohes Maß an Selbständigkeit, Sorgfalt und Qualitätsbewusstsein Fähigkeit mit Unsicherheit umzugehen und hohe Motivation neue Prozesse und Konzepte zu gestalten Gute Englischkenntnisse in Wort und Schrift Business-Intelligence-Engineer-m-w-d-Operational-Reporting-Essen
Deployment-Profi: Du bist vertraut mit Deploymentprozessen über GitLab sowie CI/CD-Pipelines und hast Erfahrungen mit Salesforce oder alternativen Java Backend Implementierungen. Web-Kenntnisse: Erste Erfahrungen mit Webentwicklungen (LWC von Vorteil) sind wünschenswert. Cloud-Native: Kenntnisse in Cloud-Umgebungen, insbesondere Google Cloud, sind von Vorteil.
SAP FI/CO, MM, SD, PP, EWM) und weiteren Systemen für eine effiziente Datenintegration Erstellung von Datenpipelines und ETL-Prozessen zur Verarbeitung großer Datenmengen aus verschiedenen SAP-Modulen und anderen Quellen Beratung der Fachbereiche bei der Nutzung von Daten aus SAP-Systemen zur Optimierung von Geschäftsprozessen Zusammenarbeit mit interdisziplinären Teams, um Anforderungen aus verschiedenen Fachbereichen aufzunehmen und datengetriebene Lösungen zu entwickeln Unterstützung bei der Analyse, Modellierung und Visualisierung von Daten Mitwirkung in der strategischen Weiterentwicklung eines globalen Berichtswesens Ihr Profil: Abgeschlossene Ausbildung oder Studium im Bereich (Wirtschafts-) Informatik oder vergleichbar - alternativ mehrjährige äquivalente Berufserfahrung Kommunikationsstärke und Fähigkeit, komplexe technische Zusammenhänge für nicht-technische Stakeholder verständlich zu machen Fundierte Erfahrung in der Modellierung und Visualisierung von Daten, idealerweise mit Qlik-Technologien Praktische Kenntnisse in SAP-Systemen und verschiedenen Modulen (z. B. SAP FI/CO, MM, SD, PP), optional ist Erfahrung in der Integration von SAP-Daten von Vorteil Fundierte SQL Kenntnisse sind erwünscht, Erfahrung in Programmiersprachen oder ähnlichen Tools zur Datenanalyse ist wünschenswert Kenntnisse im Aufbau und der Optimierung von Datenarchitekturen Gute Deutsch- und Englischkenntnisse in Wort und Schrift Einen Beitrag mit Bedeutung leisten: Bei uns haben Sie die Chance, aktiv Verantwortung zu übernehmen und die Gesundheitsversorgung unserer Gesellschaft nachhaltig zu verbessern.
Das bringst du mit Oracle Exadata Erfahrung: Du verfügst über mehrjährige Berufserfahrung im Oracle-Umfeld mit klarer Projekterfahrung auf Oracle Exadata Systemen.Oracle Technologien: Du bringst fundierte Kenntnisse in Oracle RAC, Data Guard, RMAN und Enterprise Manager Cloud Control mit.Datenbank Administration: Du hast umfassende Erfahrung in Installation, Konfiguration und Betrieb von Oracle Datenbanken in produktiven Umgebungen.Cloud und Linux: Du hast praktische Erfahrung mit Oracle Cloud Infrastructure sowie sehr gute Kenntnisse in Linux, idealerweise auch in Unix oder Windows.SQL und Scripting: Du verfügst über gute Kenntnisse in SQL, PL/SQL und Shell-Scripting.Betrieb und Kommunikation: Du arbeitest sicher im SLA- und ITIL-orientierten Umfeld, bist bereit zur Teilnahme an einer geregelten Rufbereitschaft, kommunizierst sehr gut auf Deutsch und projektsicher auf Englisch und überzeugst durch ein professionelles Auftreten.
Mehrjährige nachgewiesene Erfahrung im Bereich Industrial Engineering Technisch orientiertes Studium der Fachrichtung Maschinenbau, Kunststofftechnik oder vergleichbare Ausbildung wie Refa oder MTM-Ausbildung Sehr gute Deutsch- und Englisch Kenntnisse in Wort und Schrift snd wünschenswert Fundierte Kenntnisse im Lean- und Projektmanagement Eine ausgeprägte Kommunikationsstärke, Teamfähigkeit sowie ein souveränes Auftreten und Durchsetzungsfähigkeit runden Ihr Profil ab Dann bieten wir: Einen spannenden Arbeitsplatz in einer dynamischen Industrie, facettenreiche Herausforderungen sowie persönliche und fachliche Entwicklungsmöglichkeiten in einem kollegialen Arbeitsumfeld.
Zusätzlich genießt du zahlreiche Social Benefits (Mitarbeiter*innen-Restaurant / Unterstützung für Mittagessen, Inhouse-Pub / Lounge, Gratis-Parkplätze, umfangreiches Sportangebot, zahlreiche Mitarbeiter*innen-Events, Sprachkurse, …) Dein Profil Abgeschlossene IT-Ausbildung (Universität, Fachhochschule oder HTL) Mindestens 3 Jahre Berufserfahrung in der Software Entwicklung mit Java Ausgeprägtes Backend- oder Frontend-Development Know-How Erfahrung mit Event Driven Architekturen (Apache Kafka) Ausgeprägtes Interesse robuster & qualitätsgesicherter Software Entwicklung Erste Erfahrungen mit Linux / Kubernetes Relevante Praxiserfahrung in der Arbeit in und mit agilen Produktorganisationen Sehr gute Deutsch- und Englisch-Kenntnisse (min. B2) Bonuswissen: Erfahrung mit Python oder GoLang Das Mindestgehalt für diese Position liegt – abhängig von Qualifikation und Erfahrung – bei € 60.000,-- brutto pro Jahr.
Informatik, IT-Sicherheit, Cyber Security).Mehrjährige Berufserfahrung im Security Operations Center (SOC)-Umfeld.Fundierte Kenntnisse im Pentesting, Red- oder Purple-Teaming zur tiefgehenden Analyse und zum Verständnis moderner Angriffsvektoren.Expertenwissen in der Erkennung und Analyse von Angriffsvektoren in Logdaten.Mehrjährige praktische Erfahrung im Bereich Detection Engineering / Threat Detection.Umfangreiche Erfahrung in der Entwicklung, Optimierung und Dokumentation individueller Detektionsregeln.Nachweisliche Expertise in der Überführung dokumentierter Angriffsvektoren in präzise und wirksame Detektionslogiken.Erfahrung in der Qualitätssicherung von Detection Use Cases (Testkonzeption, Testdurchführung, Validierung).Zertifizierungen wie OSCP oder vergleichbare Qualifikationen sind von Vorteil.Erfahrung mit Google SecOps (ehemals Chronicle) ist ein Plus.
Hierbei bringen Sie nicht nur Ihr technologisches Wissen, sondern die Kenntnisse betrieblicher Abläufe ein Dienstsitz: Raum Stuttgart Einstellungsdatum: schnellst möglich Gehalt: nach Vereinbarung Anforderungen Mehrjährige Berufserfahrung im Bereich Netzwerk-Administration/-Betrieb sowie der Systemintegration Routinierter Umgang mit verschiedenen Herstellern im Netzwerk-Umfeld (LAN, Data Center, WLAN), als auch mit der abstrakten Protokollwelt Fundierte Fachkenntnisse in Fabric Technologien, NAC, Software Defined Networking, sowie klassischer LAN Architekturen werden durch Erfahrungen mit AAA- und Monitoring-Lösungen abgerundet Sehr gutes prozessuales Denken im Bereich betrieblicher Abläufe, Vorgehensmodelle wie ITIL sind geläufig Freude an der Arbeit in wechselnden Kundenumgebungen Spaß am Erkennen und Umsetzen von Kundenbedürfnissen sowie pragmatische und zielorientierte Arbeitsweise Nachweisbare Erfolge im Führen von Kundenworkshops Zuverlässigkeit, Teamfähigkeit und hohe Kundenorientierung Sehr gute Deutsch- und Englisch-Kenntnisse Angebot Flexible Arbeitszeiten Home-Office / flexibles Arbeiten Firmenwagen Vermögenswirksame Leistungen Betriebliche Altersvorsorge Weiterbildungsprogramme Gesundheitsförderung Sport- und Freizeitangebote Mitarbeiterrabatte Mitarbeiterhandy Mitarbeiterevents
Aufgaben Eigenverantwortliche Mitwirkung bei innovativen Projekten im Bereich IT-Security, IT-Infrastruktur und Cloud Entwicklung von Komponenten und Schnittstellen für die Kommunikation mit verschiedenen Technologien und weiteren Systemen nach der SCRUM-Methodik Begleiten und Betreuen von Entwicklungsprojekten, von der Anforderungsanalyse bis zur Inbetriebnahme Arbeiten mit modernen Technologien wie CI/CD Pipelines, Docker, Spring Boot und HashiCorp in Microservice-basierenden Umgebungen Qualifizierung von beliebigen Problemstellungen Zentrale Entwicklung und Weiterentwicklung von Anwendungen Dienstsitz: Deutschlandweit/Home Office Einstellungsdatum: schnellst möglich Gehalt: nach Vereinbarung Anforderungen Mehrjährige Berufserfahrung in aktuellen Technologien und Lösungen der Software Entwicklung Sicherer Umgang mit Entwicklungsumgebungen und Integrations-Software (u.a. Intellij, Maven, Git, Docker) Sehr gute Kenntnisse in der Entwicklungssprache Java und Spring Boot Mehrjährige Erfahrung mit aktuellen Datenbanken (bspw. MySQL) Grundlegendes Wissen auf dem Gebiet der Frontendentwicklung.
Deine Aufgaben: Unterstützung im laufenden Betrieb im Oracle Datenbankumfeld einschließlich Upgrade, Fehleranalyse sowie Administration und Installation der Oracle Database Appliance Vorbereitung und Durchführung der Migration von einer Oracle Database Appliance X9 auf eine Oracle Datenbank in einer Oracle VM Umgebung Planung, Beratung und Umsetzung von Hochverfügbarkeitslösungen mit Oracle Data Guard Implementierung und Konzeption von Backup und Restore Strategien mit Oracle RMAN Durchführung der technischen Projektarbeiten sowie Stabilisierung des Betriebs nach der Migration Aufbau und Migration von Datenbanken für das RV System Mitwirkung beim Aufbau und der Inbetriebnahme neuer Betriebsstandorte Plattformhärtung und Sicherstellung eines stabilen Betriebs Dokumentation der Umsetzung sowie Wissenstransfer an interne Mitarbeiter Dein Profil: Erfahrung in der Administration von Oracle Database Appliance Fundierte Kenntnisse in Oracle RAC, Oracle DBA Administration, Oracle Data Guard und Oracle RMAN Erfahrung mit Migrationen von Oracle Database Appliances Kenntnisse der Oracle Lizenzbestimmungen sowie Unterstützung bei Audits und Lizenznachweisen Erfahrung in der Erstellung von KRITIS Dokumentationen Nachweisbare Projekterfahrung mit ODA X9 als Quellplattform Erfahrung im technischen Projektmanagement Erfahrung im Aufbau von Hochverfügbarkeitsarchitekturen und Backup Restore Strategien Rahmenparameter: Einsatzort: Remote Laufzeit: Oktober 2026 - Dezember 2027 + Option auf eine Verlängerung um ein weiteres Jahr Auslastung: 3 - 4 PT / Woche Dein GECO-Ansprechpartner freut sich auf Deine Kontaktaufnahme und über die Zusendung Deiner aussagekräftigen Projekthistorie sowie Deiner Honorarvorstellung/Gehaltsvorstellung/Preisvorstellung.
Mindestens 3 Jahre Berufserfahrung z.B. in der Entwicklung von robusten und zuverlässigen analogen Schaltungen. Sehr gute Kenntnisse mit CAD-Software und Simulation Tools. Altium Designer und LT-Spice wünschenswert. Fundierte Kenntnisse über die Funktion und Bedienung elektronischer Laborgeräte (Oszilloskop, Signalgenerator, Präzisionsmultimeter, Netzwerk- und Spektrumanalysator usw.)